Yiksan0315's Blog

Logistic Regression

# Tag:

  • Source/KU_DL

Logistic Regression

참(1)과 거짓(0) 사이를 구분하는 Regression.

확률 값을 예측하기에 Regression이지만, 그 목적은 Classification에 있다.
어떠한 threshold보다 regression 값이 작거나 큼에 따라 1 혹은 0으로 분류한다.

이는 곧, 확률에 대한 예측이므로 이라는 conditional probability function(혹은 Bayes' Theorem에 따른 Posterior)이기도 하다.

Sigmoid function

  • 는 그래프의 경사도를 결정한다.
  • b는 그래프의 좌우 이동을 결정한다.

이를 통해, 0부터 1사이의 값으로 mapping 시킨다.
는 Linear classifier이 되며, 곧 decision boundary가 되는 hyperplane을 만들어주는 역할을 하게 된다. 그 경계가 되는 지점은, threshold에 의해 결정된다.

Exact Boundary

정확히는,

을 만족할 때가 그 경계가 된다. class 인지 혹은 class 인지의 확률이 같아지는 지점을 말한다.

Probability function using MLE

Posterior를 최대화하기 위한 함수이므로, 결국은 MLE로 이어지는 함수가 되기도 한다.

이 때, IID라는 가정이 존재한다고 하면,

에서, 의 꼴로 변형된다고 생각하면(Gaussian Distribution을 취하는 것으로, 결국에는 Parametric Methods의 일종으로써 그 분포를 정해놓고 estimate하는 것이다), 결국은 Sigmoid꼴로 변하게 된다.

Multinomial Logistic Regression

위의 K개의 식들을 연립하면,

곧, Softmax의 형태의 꼴로 바뀌게 된다. 결국에는 MLE를 취한다고 하면, 이에 softmax에 log를 취해 그 값을 최소화하는, Softmax Loss에 대한 MLE로 변하게 된다.

즉, Logistic Regression은 softmax의 응용이다.

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.